Markov chain

Markov chain
цепь f Маркова
absolute distribution of а Markov chain абсолютное/безусловное распределение цепи Маркова
aperiodic Markov chain непериодическая цепь Маркова
asymptotic aggregation of states of a Markov chain асимптотическое укрупнение состояний цепи Маркова
controlled Markov chain управляемая цепь Маркова
countable Markov chain счетная цепь Маркова
cyclic Markov chain циклическая/периодическая цепь Маркова
decomposable Markov chain разложимая/приводимая цепь Маркова
de-numerable Markov chain счетная цепь Маркова
embedded Markov chain вложенная цепь Маркова
ergodic Markov chain эргодическая цепь Маркова
Feller Markov chain феллеровская цепь Маркова
finite Markov chain конечная цепь Маркова
Harris recurrent Markov chain возвратная по Харрису цепь Маркова
high-order Markov chain сложная цепь Маркова
homogeneous Markov chain однородная цепь Маркова
indecomposable Markov chain неразложимая/неприводимая цепь Маркова
irreducible Markov chain неприводимая/неразложимая цепь Маркова
nonhomogeneous Markov chain неоднородная цепь Маркова
periodic Markov chain периодическая/циклическая цепь Маркова
recurrent Markov chain возвратная цепь Маркова
reducible Markov chain приводимая/разложимая цепь Маркова
regular Markov chain регулярная цепь Маркова
reversed Markov chain обращенная цепь Маркова
transient Markov chain невозвратная цепь Маркова
transitive Markov chain транзитивная цепь Маркова

English-Russian Dictionary on Probability, Statistics, and Combinatorics. — Philadelphia and Moscow. Society for Industrial and Applied Mathematics and TVP Science Publishers. . 1994.

Игры ⚽ Поможем написать курсовую

Полезное


Смотреть что такое "Markov chain" в других словарях:

  • Markov chain — Mark ov chain, n. [after A. A. Markov, Russian mathematician, b. 1856, d. 1922.] (Statistics) A random process (Markov process) in which the probabilities of discrete states in a series depend only on the properties of the immediately preceding… …   The Collaborative International Dictionary of English

  • Markov chain — A simple two state Markov chain. A Markov chain, named for Andrey Markov, is a mathematical system that undergoes transitions from one state to another, between a finite or countable number of possible states. It is a random process characterized …   Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov chain — Markovo grandis statusas T sritis automatika atitikmenys: angl. Markov chain vok. Markovkette, f rus. марковская цепь, f; цепь Маркова, f pranc. suite markovienne, f …   Automatikos terminų žodynas

  • Markov chain geostatistics — refer to the Markov chain models, simulation algorithms and associated spatial correlation measures (e.g., transiogram) based on the Markov chain random field theory, which extends a single Markov chain into a multi dimensional field for… …   Wikipedia

  • Markov Chain Monte Carlo — Verfahren (kurz MCMC Verfahren; seltener auch Markov Ketten Monte Carlo Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow Kette,… …   Deutsch Wikipedia

  • Markov chain Monte Carlo — MCMC redirects here. For the organization, see Malaysian Communications and Multimedia Commission. Markov chain Monte Carlo (MCMC) methods (which include random walk Monte Carlo methods) are a class of algorithms for sampling from probability… …   Wikipedia

  • Markov chain mixing time — In probability theory, the mixing time of a Markov chain is the time until the Markov chain is close to its steady state distribution. More precisely, a fundamental result about Markov chains is that a finite state irreducible aperiodic chain has …   Wikipedia

  • Markov chain Monte Carlo — Les méthodes MCMC (pour Markov chain Monte Carlo) sont une classe de méthodes d échantillonnage à partir de distributions de probabilité. Ces méthodes se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les… …   Wikipédia en Français

  • Markov chain — /mahr kawf/, Statistics. a Markov process restricted to discrete random events or to discontinuous time sequences. Also, Markoff chain. [1940 45; see MARKOV PROCESS] * * * …   Universalium


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»